Campus

Enfrentando o enigma da IA/energia
O simpósio anual de pesquisa da Iniciativa de Energia do MIT explora a inteligência artificial como um problema e uma solução para a transição para energia limpa.
Por Leda Zimmerman - 10/07/2025


No Simpósio de Primavera da Iniciativa de Energia do MIT de 2025, Evelyn Wang (no púlpito), vice-presidente de energia e clima do MIT, juntou-se ao diretor do MITEI, William H. Green, para discutir como as colaborações no campus podem ajudar a resolver o desafio do data center. Créditos: Foto: Jake Belcher


O crescimento explosivo de centros de computação com tecnologia de IA está gerando um aumento sem precedentes na demanda por eletricidade, que ameaça sobrecarregar as redes elétricas e prejudicar as metas climáticas. Ao mesmo tempo, as tecnologias de inteligência artificial podem revolucionar os sistemas de energia, acelerando a transição para a energia limpa.

"Estamos à beira de uma mudança potencialmente gigantesca em toda a economia", disse William H. Green , diretor da Iniciativa de Energia do MIT (MITEI) e Professor Hoyt C. Hottel no Departamento de Engenharia Química do MIT, no Simpósio de Primavera do MITEI, "IA e energia: perigo e promessa", realizado em 13 de maio. O evento reuniu especialistas da indústria, academia e governo para explorar soluções para o que Green descreveu como "problemas locais com o fornecimento de energia elétrica e o cumprimento de nossas metas de energia limpa", enquanto buscamos "colher os benefícios da IA sem alguns dos danos". O desafio da demanda de energia do data center e os potenciais benefícios da IA para a transição energética são uma prioridade de pesquisa para o MITEI.

As surpreendentes demandas energéticas da IA

Desde o início, o simpósio destacou estatísticas preocupantes sobre o apetite da IA por eletricidade. Após décadas de demanda estagnada por eletricidade nos Estados Unidos, os centros de computação agora consomem aproximadamente 4% da eletricidade do país. Embora haja grande incerteza, algumas projeções sugerem que essa demanda pode aumentar para 12% a 15% até 2030, impulsionada em grande parte por aplicações de inteligência artificial.

Vijay Gadepally, cientista sênior do Laboratório Lincoln do MIT, enfatizou a escala do consumo da IA. "A energia necessária para sustentar alguns desses grandes modelos está dobrando quase a cada três meses", observou. "Uma única conversa no ChatGPT consome tanta eletricidade quanto carregar seu telefone, e gerar uma imagem consome cerca de uma garrafa de água para resfriamento."

Instalações que exigem de 50 a 100 megawatts de energia estão surgindo rapidamente nos Estados Unidos e no mundo, impulsionadas por necessidades de pesquisa casuais e institucionais, que dependem de grandes programas de linguagem, como ChatGPT e Gemini. Gadepally citou o depoimento de Sam Altman, CEO da OpenAI, no Congresso, destacando o quão fundamental essa relação se tornou: "O custo da inteligência, o custo da IA, convergirá para o custo da energia."

“As demandas de energia da IA são um desafio significativo, mas também temos a oportunidade de aproveitar essas vastas capacidades computacionais para contribuir com soluções para as mudanças climáticas”, disse Evelyn Wang , vice-presidente de energia e clima do MIT e ex-diretora da Agência de Projetos de Pesquisa Avançada - Energia (ARPA-E) do Departamento de Energia dos EUA.

Wang também observou que as inovações desenvolvidas para IA e data centers — como eficiência, tecnologias de resfriamento e soluções de energia limpa — podem ter amplas aplicações além das próprias instalações de computação.

Estratégias para soluções de energia limpa

O simpósio explorou diversos caminhos para enfrentar o desafio da IA na energia. Alguns painelistas apresentaram modelos que sugerem que, embora a inteligência artificial possa aumentar as emissões no curto prazo, suas capacidades de otimização podem permitir reduções substanciais de emissões após 2030 por meio de sistemas de energia mais eficientes e desenvolvimento acelerado de tecnologias limpas.

Pesquisas mostram variações regionais no custo de abastecer centros de computação com eletricidade limpa, de acordo com Emre Gençer, cofundador e CEO da Sesame Sustainability e ex-cientista principal de pesquisa do MITEI. A análise de Gençer revelou que a região central dos Estados Unidos oferece custos consideravelmente mais baixos devido aos recursos solares e eólicos complementares. No entanto, atingir energia com emissão zero exigiria a implantação massiva de baterias — de cinco a dez vezes mais do que em cenários de carbono moderado — elevando os custos de duas a três vezes.

“Se quisermos atingir zero emissões com energia confiável, precisamos de tecnologias além de energias renováveis e baterias, que serão muito caras”, disse Gençer. Ele apontou “tecnologias de armazenamento de longa duração, pequenos reatores modulares, geotérmica ou abordagens híbridas” como complementos necessários.

Devido à demanda por energia em data centers, há um interesse renovado em energia nuclear, observou Kathryn Biegel, gerente de P&D e estratégia corporativa da Constellation Energy, acrescentando que sua empresa está reiniciando o reator na antiga unidade de Three Mile Island, agora chamada de "Crane Clean Energy Center", para atender a essa demanda. "O espaço do data center se tornou uma grande prioridade para a Constellation", disse ela, enfatizando como suas necessidades de confiabilidade e eletricidade livre de carbono estão remodelando o setor de energia.

A IA pode acelerar a transição energética?

A inteligência artificial pode melhorar drasticamente os sistemas de energia, de acordo com Priya Donti , professora assistente e professora de Desenvolvimento de Carreira da Família Silverman no Departamento de Engenharia Elétrica e Ciência da Computação do MIT e no Laboratório de Sistemas de Informação e Decisão. Ela demonstrou como a IA pode acelerar a otimização da rede elétrica incorporando restrições baseadas em física em redes neurais, potencialmente resolvendo problemas complexos de fluxo de energia a uma velocidade "10 vezes maior, ou até maior, em comparação com os modelos tradicionais".

A IA já está reduzindo as emissões de carbono, de acordo com exemplos compartilhados por Antonia Gawel, diretora global de sustentabilidade e parcerias do Google. O recurso de roteamento com baixo consumo de combustível do Google Maps "ajudou a evitar a redução de mais de 2,9 milhões de toneladas métricas de emissões de GEE [gases de efeito estufa] desde o lançamento, o que equivale a tirar 650.000 carros movidos a combustível das ruas por um ano", disse ela. Outro projeto de pesquisa do Google usa inteligência artificial para ajudar pilotos a evitar a criação de trilhas de condensação, que representam cerca de 1% do impacto do aquecimento global.

O potencial da IA para acelerar a descoberta de materiais para aplicações de energia foi destacado por Rafael Gómez-Bombarelli , Professor Associado de Desenvolvimento de Carreira Paul M. Cook no Departamento de Ciência e Engenharia de Materiais do MIT. "Modelos supervisionados por IA podem ser treinados para ir da estrutura à propriedade", observou ele, permitindo o desenvolvimento de materiais cruciais tanto para a computação quanto para a eficiência.

Garantindo o crescimento com sustentabilidade

Ao longo do simpósio, os participantes se debruçaram sobre o equilíbrio entre a rápida implantação da IA ??e os impactos ambientais. Embora o treinamento em IA receba mais atenção, Dustin Demetriou, membro sênior da equipe técnica em sustentabilidade e inovação em data centers da IBM, citou um artigo do Fórum Econômico Mundial que sugeria que "estima-se que 80% da pegada ambiental se deva à inferência". Demetriou enfatizou a necessidade de eficiência em todas as aplicações de inteligência artificial.

O paradoxo de Jevons, em que "ganhos de eficiência tendem a aumentar o consumo geral de recursos em vez de diminuí-lo", é outro fator a ser considerado, alertou Emma Strubell, Professora Assistente Raj Reddy no Instituto de Tecnologias da Linguagem da Escola de Ciência da Computação da Universidade Carnegie Mellon. Strubell defendeu a visão da eletricidade dos centros de computação como um recurso limitado que requer alocação criteriosa entre diferentes aplicações.

Vários palestrantes discutiram novas abordagens para integrar fontes renováveis à infraestrutura de rede existente, incluindo potenciais soluções híbridas que combinam instalações limpas com usinas de gás natural existentes que já possuem conexões de rede valiosas. Essas abordagens poderiam fornecer capacidade limpa substancial nos Estados Unidos a custos razoáveis, minimizando os impactos na confiabilidade.

Navegando no paradoxo IA-energia

O simpósio destacou o papel central do MIT no desenvolvimento de soluções para o desafio da eletricidade da IA.

Green falou sobre um novo programa do MITEI sobre centros de computação, energia e computação, que operará em paralelo à ampla disseminação da pesquisa do Projeto Climático do MIT. "Vamos tentar abordar um problema muito complexo, desde as fontes de energia até os algoritmos que entregam valor aos clientes — de uma forma que seja aceitável para todas as partes interessadas e realmente atenda a todas as necessidades", disse Green.

Os participantes do simpósio foram questionados sobre as prioridades para a pesquisa do MIT por Randall Field , diretor de pesquisa do MITEI. Os resultados em tempo real classificaram "questões de integração de data center e rede" como a principal prioridade, seguida por "IA para descoberta acelerada de materiais avançados para energia".

Além disso, os participantes revelaram que a maioria vê o potencial energético da IA como uma "promessa", e não como um "perigo", embora uma parcela considerável permaneça incerta sobre seu impacto final. Quando questionados sobre as prioridades no fornecimento de energia para instalações de computação, metade dos entrevistados selecionou a intensidade de carbono como sua principal preocupação, seguida pela confiabilidade e pelo custo.

 

.
.

Leia mais a seguir